Световни новини без цензура!
Big Tech казва, че AI водните знаци могат да ограничат дезинформацията, но са лесни за избягване
Снимка: nbcnews.com
NBC News | 2024-03-19 | 23:54:52

Big Tech казва, че AI водните знаци могат да ограничат дезинформацията, но са лесни за избягване

Водните знаци са представени от Big Tech като един от най-обещаващите способи за битка с ескалиращия проблем с дезинформацията онлайн с AI. Но към този момент резултатите не наподобяват обещаващи, съгласно специалисти и обзор на дезинформацията, осъществен от NBC News.

Главният консултант на Adobe и чиновник по доверие Дана Рао написа в обява в блог през февруари че стандартът за водни знаци C2PA на Adobe, който Meta и други огромни софтуерни компании са подписали, ще бъде инструмент за образование на обществеността по отношение на подвеждащия AI.

„ С повече от два милиарда гласоподаватели, които се чака да вземат участие в изборите по света тази година, напредването на задачата на C2PA в никакъв случай не е било по-критично “, написа Рао.

Технологиите са единствено в начален етап и в лимитирано положение на внедряване, само че към този момент е потвърдено, че водният знак е елементарен за заобикаляне.

Много модерни технологии за воден знак, предопределени да разпознават AI- генерираната медия употребява два съставния елемент: незабележим етикет, съдържащ се в метаданните на изображението, и забележим етикет, насложен върху изображение.

Но и двата невидими водни знака, които могат да одобряват формата на микроскопични пиксели или метаданни, и забележимите етикети могат да бъдат отстранени, от време на време посредством обикновени способи като екранни фотоси и изрязване.

Досега огромните обществени медии и софтуерни компании не са задължили или наложили прецизно слагането на етикети върху наличие, генерирано или редактирано от AI.

Уязвимостта на водния знак беше показана в сряда, когато основният изпълнителен шеф на Meta Марк Зукърбърг актуализира коричната си фотография във Фейсбук с генерирано от AI изображение на лами, стоящи на компютри. Създаден е с генератора на изображения с изкуствен интелект на Meta Imagine, който започва през декември. Генераторът би трябвало да основава изображения с вградени етикети, които се демонстрират като дребен знак в долния ляв ъгъл на изображения като ламите на Зукърбърг.

Но на изображението на лама, генерирано от AI на Зукърбърг, етикетът не беше забележим за консуматори, излезли от Фейсбук. Освен това не се виждаше, в случай че не щракнете върху и отворите фотографията на корицата на Zuckerberg. Когато NBC News сътвори генерирани от изкуствен интелект изображения на лами с Imagine, етикетът можеше елементарно да бъде отстранен посредством екранна фотография на част от изображението, която нямаше етикета в себе си. Според Meta невидимият воден знак се придвижва в екранните фотоси.

През февруари Meta разгласи, че ще стартира да разпознава генерирано от AI наличие посредством технология за воден знак и етикетиране на генерирано от AI наличие във Фейсбук, Instagram и Threads. Водните знаци, които Meta употребява, се съдържат в метаданни, които са невидими данни, които могат да се преглеждат единствено с технология, построена за извличането им. В известието си Meta призна, че водният знак не е изцяло ефикасен и може да бъде отстранен или манипулиран при недобросъвестни старания.

Компанията сподели, че също по този начин ще изисква от потребителите да разкриват дали оповестеното от тях наличие е генерирано от AI и „ може да наложи наказания “, в случай че не го създадат. Тези стандарти идват през идващите няколко месеца, сподели Мета.

Водните знаци на AI могат даже да бъдат отстранени, в случай че потребителят не има намерение да го направи. Понякога качването на фотоси онлайн отстранява метаданните от тях в процеса.

Видимите етикети, свързани с водния знак, основават спомагателни проблеми.

„ Отнема към две секунди, с цел да се отстрани този тип воден знак “, сподели Софи Тура, която работи за компания за софтуерно лобиране и покровителство в Обединеното кралство, наречена Control AI, която започва през октомври 2023 година „ Всички тези изказвания, че са по-строги и сложни за унищожаване, са склонни да отпадат. “

Старши технолог за Electronic Frontier Foundation, група с нестопанска цел за цифрови цивилен свободи, написа, че даже и най-стабилните и комплицираните водни знаци могат да бъдат отстранени от някой, който има уменията и желанието да манипулира самия файл.

Освен премахването на водни знаци, те също могат да бъдат репликирани, отваряйки опцията за подправени позитивни резултати, които да допускат, че нередактираната и действителната медия в действителност е генерирана от AI.

Компаниите, които са се заели със взаимни стандарти за водни знаци, са съществени играчи като Meta, Гугъл, OpenAI, Microsoft, Adobe и Midjourney. Но има хиляди AI модели, налични за евакуиране и потребление в магазини за приложения като Гугъл Play и уеб страници като GitHub на Microsoft, които не са задължени към стандартите за водни знаци.

За стандарта C2PA на Adobe, който е признат от Гугъл, Microsoft, Meta, OpenAI, огромни новинарски издания и огромни компании за фотоапарати, изображенията са предопределени автоматизирано да имат воден знак, комбиниран с забележим етикет, наименуван „ идентификационни данни за наличие “.

Етикетът, който е дребен знак, формиран от буквите „ CR “  в ъгъла на изображение, е сходен на етикета Imagine на Meta. Тези невидими водни знаци се съдържат в метаданни, ситуирани в пиксел във образно значима част от изображението, сподели Рао от Adobe за NBC News през февруари. Както образният етикет, по този начин и метаданните ще съдържат информация като да вземем за пример дали изображението е генерирано от AI или редактирано с принадлежности за AI.

„ Това е доброжелателно, това е стъпка в вярната посока. Не мисля, че би трябвало да се разчита на него като решение, да вземем за пример, на всички проблеми, които идват с дълбоките имитации “, сподели Тура.

Deepfakes са подвеждащи изображения, видеоклипове и аудио, които са редактирани или генерирани с AI. Те постоянно се употребяват за ориентиране към хора – преобладаващо дами и девойки – с изображения и видеоклипове, които изобразяват техните лица и прилики в голи и полово очевидни сюжети без тяхното единодушие. Повече от тези deepfakes бяха оповестени онлайн през 2023 година, в сравнение с всяка друга година взети дружно, а нашумялите произшествия продължиха и през 2024 година По-рано този месец NBC News откри, че Meta хоства стотици реклами от септември насам за deepfake приложение, което предлага опция за „ събличане “ ” фотоси — 11 реклами демонстрираха замъглени, голи фотоси на „ съблечени ” изображения на актрисата Джена Ортега, направени, когато тя беше единствено на 16 години. След като спря десетки реклами преди този момент, Meta спря компанията зад рекламите едвам откакто NBC News се свърза.

Deepfakes също от ден на ден се употребяват в измами и политическа дезинформация, в това число по отношение на изборите през 2024 година

През януари надълбоко подправено автоматизирано позвъняване, което позвъни на хиляди демократи от Ню Хемпшир, имитира гласа на Джо Байдън с AI и им сподели да не гласоподават на първичните избори. NBC News заяви, че  съветник от Демократическата партия, обвързван с конкурентна акция, е платил на вълшебник да сътвори аудиото, което той е направил благодарение на AI програмен продукт от компанията ElevenLabs.

ElevenLabs вгражда водни знаци, недоловими за човешкото ухо, в аудио файлове, основани с неговия програмен продукт. Всеки може да качи извадка в неговия безвъзмезден „ класификатор на тирада “, с цел да сканира за тези водни знаци.

Но актът на потребление на надълбоко подправено аудио за незаконни цели в действителния свят може да промени звуковия файл и да отстрани тези водни знаци. Когато NBC News качи истинския файл на магьосника в класификатора на речта, ElevenLabs сподели, че има 98% късмет техният програмен продукт да направи тази проба. Но когато NBC News качи запис на същото подправено позвъняване на Байдън, което беше записано от гласовата поща на гражданин на Ню Хемпшир, получил позвъняването – развой, който добави известно деформиране към аудио файла – класификаторът сподели, че има единствено 2% има възможност софтуерът на ElevenLabs да е забъркан.

Социалните медийни платформи и търсачки към този момент са цялостни с дълбоки имитации, а магазините за приложения са цялостни с услуги, които популяризират тяхното основаване. Някои от тези изявления и реклами съдържат дълбоки подправени голи и полово очевидни изображения с лица на деца.

Рао беше прагматичен по отношение на обсега, който личната самодейност на Adobe за водни знаци може да има. Първо, сподели той, обществеността би трябвало да разпознае етикетите, които демонстрират генерирано от AI наличие. За да бъде необятно ефикасна, обществеността ще би трябвало да се научи да ревизира образните медии, преди да им се довери. Това би било огромно достижение. Рао съпостави евентуалното прекосяване към очакване и различаване на идентификационни данни за наличие във образни медии с публичната информираност за онлайн фишинг кампаниите — които в това време внезапно се усилиха дружно с възхода на ChatGPT.

„ Не е нужно да имаме вяра на всичко вярно “, сподели той в февруарско изявление за NBC News през февруари. „ Наистина би трябвало да работим в допълнение върху значимите неща, с цел да повярваме дали е правилно или не. “

Кат Тенбардж

Източник: nbcnews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!